20.3 지식 증류: 거인의 지혜를 계승하다 (Knowledge Distillation) 20.3 지식 증류: 거인의 지혜를 계승하다 (Knowledge Distillation) 20.3.1 Teacher-Student 아키텍처: LLM의 추론 능력을 소형 모델로 이식하기 20.3.2 단계별 증류(Step-by-step Distillation)와 CoT(Chain-of-Thought) 증류 20.3.3 특화된 로봇 작업을 위한 도메인 특화 증류 전략